在 2023 前,印第安納州新卡萊爾仍是一片泥濘的農田,玉米田隨風吹拂。不到兩年後,這裡已經成為一座運作中的 AI 資料中心,七棟建築相繼竣工,全力運行。這速度「快得有點不真實」。這正是 AWS 在超速部署其 AI 基礎設施的真實縮影。
在報導中,是生成式 AI(Generative AI)熱潮的爆發,也是一場雲端服務公司為了下一代語言模型(LLM, large language model)拼盡全力的較量。AWS 選擇在此建設,不只因為土地、電力、補助,更在於它打算掌握「從硬體到雲服務」這條關鍵鏈條。
筆者透過 AIMochi 筆記工具,將在這篇文章中,從多個角度帶你走進這場大型工程:
為何選擇這地、這速度怎麼做到?
自研晶片 Trainium 2 是什麼?技術與成本控管如何?
建設帶來地方經濟、就業與能源影響。
競爭格局中,AWS 如何定位自己?並藏下哪些未來伏筆?
最終:這一波「AI基礎設施熱潮」是否隱含風險?我們還能怎麼看?
AWS 在印第安納州新卡萊爾選址,佔地約 1,200 英畝(約 486 公頃)農田。場址過去用作農業生產,只用了不到一年多時間,從零起點轉為運作中資料中心。
總計至少規劃 30 棟建築、消耗電力達約 2.2 吉瓦。印第安納州政府也將其列為州歷史上最大資本投資案之一。
報導指出:“這速度快得有點不真實”。從農田到全球最大 AI 資料中心之一,僅僅在短短時間內完成。這其中涵蓋了土地徵用、建築施工、電力/水務接入、冷卻基礎設施設置、晶片集群安裝、網路與機房驗收……每一步皆須精準協調。
為什麼能如此迅速?
預設需求強烈:生成式 AI 模型訓練迅速爆發,客戶需求迫切。
模組化/工業化建造方式:報導指出 AWS 為此改變建築類型、液冷技術,工程管理精細。
地方支持與補助:印第安納州提供稅收優惠、補貼、土地激勵。
因此,基地並非慢慢苗圃式讓工程熟成,而是一場快節奏、標準化的大型工業部署。
關鍵原因包括:
優質土地:大面積農田轉用成本相對較低。
充足電力與輸電走廊:印第安納州已有高速公路、鐵路、輸電線路等基礎。
州府誘因:稅收豁免、補貼政策吸引大規模資料中心建置。
接近拓展聯網/雲端客戶:中西部對於大型雲服務集群亦具地理優勢。
然而,這樣的選擇也帶來副作用:當地居民質疑電網、用水、土地變化等問題,後文將深入探討。
AWS 自 2013 年起開始設計自有晶片,從 Nitro、Graviton,到 Inferentia,再到 Trainium。
Inferentia:專為推理設計。
Trainium:專為訓練設計。
第一代 Trainium(Trn1)曾與 GPU 媲美效能,同時節省成本。
Trainium 2:官方指出其在訓練與推理上達 “30‑40 % 優於現有 GPU 執行類型”。訓練大語言模型時,相較於傳統 GPU 模式具備成本與效能優勢:在某些工作負載可達到 24.6% 效能提升與 29–46% 成本降低。
AWS 的專案名為 Project Rainier,這是一個超大規模的 AI 計算集群,搭載近 50 萬顆 Trainium 2 晶片,目前已全數上線。
AWS 表示,合作夥伴 Anthropic(OpenAI 的競爭者)到 2025 年底將使用超過一百萬顆 Trainium 2 晶片。
技術規格上,Trainium 2 配置如:64 顆晶片連接為一台 UltraServer、16 晶片為一個訓練節點。
這意味著 AWS 不再只是租用 GPU、而是從晶片、機櫃、機房設計、冷卻系統、再到雲端平台整條鏈條掌握自主能力。這是進入「從雲端到晶片」的垂直整合路徑。
選擇自研晶片的好處包括:
控制成本:根據官方說法,Trn2 的運訓成本比主流 GPU 型更低 30–40%。
提升效能:專為生成式 AI 訓練設計,可提供更佳延遲、更高吞吐。
擁有供應鏈主控權:在全球晶片供應緊張的大環境下,自有晶片能降低依賴外部。
同時,也意味著更高的責任:若晶片或軟體整合有問題,或耗電/冷卻效率差,成本與風險皆提高。學術分析指出,雖然 Trainium 表現優異,但在某些場景仍未全面證明其「超越 GPU」的廣泛適用性。
這個 110 億美元的項目(或依不同來源略有變化)成為印第安納州有史以來最大的單一資本投資案之一。
計畫中承諾至少創造 1,000 個長期職位,並在建設期間安排 9,000 多個臨時工。州府與縣政府提供土地稅、市政道路、水污處理升級補貼。
預計資料中心整體用電量達約 2.2 吉瓦,相當於超過百萬戶家庭用電。
當地電網與水資源面臨壓力:小鎮居民擔心用水、濕地影響、道路交通負荷。
印第安納州為可再生能源、核電與燃煤/天然氣電力來源轉型進行中。報導指出,到 2030 年尖峰供電需求可能翻倍。
雖然帶來投資與就業,但也不全是順風。部分居民擔心:
電費可能上升,因為數據中心用電巨大。
電網是否能承載新負荷?是否會影響居民供電穩定?
水資源與土地變更:濕地、農用地改為工業用途,引起環保與社區關注。
因此,這個基地不僅是科技焦點,更是能源、環保、地方治理三者交會的實驗場。
全球科技巨頭皆在搶占雲端+生成式 AI 資源。
Google : 自研 TPU 晶片並建置大規模 AI 資料中心。
Meta、Microsoft:亦投入數據中心建設。
AWS 的出拳重點在於「自主晶片+雲端資源整合」:透過 Trainium、自建資料中心、與合作夥伴 Anthropic 等,打造可擴展、專屬 AI 執行平台。
垂直整合:從晶片、機房、雲服務平台一路掌控。
成本優勢:自研晶片降低租用外部 GPU 的成本。
快速部署:印第安納州基地即為實證。
晶片與生態系統成熟度:雖然初期成果亮眼,但仍需時間驗證在各種模型與場景下是否全面勝出。
能源與可持續性壓力:若電力、水資源、冷卻成本失控,整體 ROI 可能受影響。
地方與監管壓力:資料中心對地方環境與社區影響大,監管與補貼政策可能變數。
基地建設仍在擴展中,AWS 表示將在其他地區推出 Trainium 3 等新晶片,並導入更多液冷、新建築模式。
此外,未來若生成式 AI 成為主流應用,擁有「快速部署AI訓練能力」的雲服務商將具決定性優勢。
以上資訊僅供分享與參考之用,請自行保留獨立判斷。若想快速了解更多資訊,善用 AIMochi 筆記工具,幫我們從海量資料中,梳理出關鍵資訊,讓我們精準掌握重要訊息!